L’AI crea immagini sempre più realistiche, anche di nudo e di defunti: l’FBI mette in guardia dai possibili ricatti. E si pensa ad una regolamentazione.
Se Fiorello nel suo programma VivaRai2! ne ha fatto una parodia divertente ed ironica e se il caso della donna sposata con un chatbot poteva far sorridere, nella realtà l’intelligenza artificiale comincia a preoccupare. L’allarme è lanciato dall’FBI: sempre più persone denunciano ricatti subìti per sextortion o casi di ghostbot. Vediamo di cosa di tratta.
Ricatti con l’intelligenza artificiale
Si moltiplicano ogni giorno le segnalazioni ricevute dall’FBI da parte di persone vittime di nuovi usi illeciti che vengono fatti dell’intelligenza artificiale, ossia quell’insieme di tecnologie che imitano capacità umane, e che sono sempre più precise e realistiche.
Molte di queste, anche minorenni, vengono ricattate con immagini di nudo generate proprio da applicazioni e software che impiegano l’AI, a partire solitamente dalle foto pubblicate sui social network o dai dati diffusi online. Il fenomeno si chiama “sextortion” ed è un pericolo alquanto preoccupante.
Ghostbot: i defunti riprendono vita
Un altro fenomeno allarmante è quello dei “ghostbot”, immagini estremamente accurate di persone morte, che vengono “riportate in vita” virtualmente e rese in grado di interagire attraverso lo schermo di un cellulare o di un computer. Anche in questo caso, spesso si tratta di minori.
Cosa fare per proteggersi da questi pericoli
L’FBI ha allora diffuso una serie di linee guide da seguire per cercare di fronteggiare questi nuovi usi illeciti dell’intelligenza artificiale.
Il succo è che tutto parte dai dati personali che le persone pubblicano in rete: limitarne la diffusione è la prima arma di difesa che si ha a disposizione. Lo si può fare, ad esempio, rendendo privato il proprio profilo Instagram o Facebook, così da conferire l’accesso alla visualizzazione delle proprie immagini ad un numero ristretto di persone.
Se fosse stato diffuso per sbaglio un contenuto inappropriato o troppo personale, allora bisogna sapere che è possibile e doveroso mettersi in contatto con la piattaforma in questione per richiederne la rimozione immediata.
Manca una regolamentazione
Quello che però viene gridato a gran voce da più parti – anche dagli stessi esperti del settore – è che manca una regolamentazione in materia.
La Queen’s University di Belfast chiede che vengano fatte delle leggi sulla protezione dei dati nell’uso di AI e propone ad esempio che venga introdotta nei testamenti o nei contratti la clausola “do not bot me”, per esprimere il dissenso nel venire trasformati in “fantasmi virtuali” post mortem.